Læs også: Vi drukner i data - hvor er redningskransen?
Hardwareindkøb er noget, som mange virksomheder meget gerne vil undgå i øjeblikket.
"Nogle gange når vi til den konklusion, at kundens platform er blevet for lille, og så specificerer vi en ny platform. Men det er værd at bemærke, at det i ni ud af ti tilfælde, hvor et datawarehouse ikke kører hurtigt nok, har noget at gøre med storage," siger Frank Dannacher, der er administrerende direktør i Platon Infrastructure.
Problemet er, at data ikke kan transporteres hurtigt nok ud fra diskene, så brugeren får en langsom oplevelse.
"Storage er problembarnet, og det vil det også være fremover," mener Frank Dannacher.
Inmemory er løsningen
Fremtiden vil være inmemory-løsninger, som øger hastigheden betragteligt.
I de løsninger begynder man dagen med at loade en masse til RAM'en, men så går det til gengæld hurtigt resten af tiden.
"At hente data fra diske, i stedet for fra hukommelsen, svarer i relativ sammenligning til at hente dokumenter på månen, når man skal bruge dem på sit skrivebord. Det er her, vi ser performance-problemerne," siger han.
I dag optimeres performance ved blandt andet at bruge mange små diske, fordi der på store diske nemmere opstår kø for transaktionerne.
Men det er ikke kun diskene, der kæmper med datamængder.
Det er også en hel kultur med at gemme alting, der skal gøres op med. De ustrukturerede data fylder mere og mere.
"Der ligger lommer af information rundt omkring, der ikke bliver brugt. Det handler om at opdrage sine medarbejdere," siger Dannacher.
It-afdelingen og forretningen må samarbejde om at finde ud af, hvilke processer, medarbejderne benytter sig af, når de gemmer deres data.
Den øvelse alene kan afhjælpe mange af problemerne med de stigende datamængder, mener Frank Dannacher.